- Senace aprobó 33 proyectos de electricidad e hidrocarburos durante el 2024
- Perú tiene alrededor de 300 mil mineros ilegales, según Fiscalía en Materia Ambiental
- MINEM culmina primera etapa de construcción de redes de distribución de gas natural en Arequipa, Moquegua y Tacna
- PPX Mining inicia construcción de planta en proyecto de oro y plata Igor
- El futuro del trabajo: IA, automatización y herramientas
La Unesco lanza un observatorio para monitorear cómo regulan los países la ética en la IA
El gran dilema ético de la inteligencia artificial es si nos está ayudando a construir sociedades más justas, más igualitarias, más sostenibles, y si está contribuyendo a reducir las brechas existentes.
La Unesco lanza hoy un observatorio donde expondrá que regulación y medidas de control están poniendo en marcha los 194 Estados miembros de la organización para asegurar un desarrollo ético de la inteligencia artificial (IA) a nivel país.
Así lo avanza en una entrevista con EFE la mexicana Gabriela Ramos, subdirectora general de Ciencias Humanas y Sociales de la Unesco, quien subraya que esta plataforma, desde hoy disponible en internet, pretende ser una especie de espejo “que evidencie qué están haciendo los Estados realmente parar asegurar tecnologías éticas, más allá de grandes declaraciones”.
El observatorio se presenta este mediodía en el II Foro Global de Ética de la Inteligencia Artificial promovido por la Unesco, que en esta ocasión se celebra en Kranj, Eslovenia, con el fin de que los países den cuenta de qué medidas han tomado a nivel nacional para adoptar el Marco Ético Mundial que promovió esta organización en 2021 y suscriben sus 194 Estados.
“El problema con la inteligencia artificial es que se plantea como un mero avance tecnológico cuando la gran reflexión debería de ser cómo alinear esos desarrollos tan impresionantes con nuestros objetivos como sociedades y seres humanos”, subraya Ramos.
El gran dilema
Es decir, “el gran dilema ético de la inteligencia artificial es si nos está ayudando a construir sociedades más justas, más igualitarias, más sostenibles, y si está contribuyendo a reducir las brechas existentes en todos esos campos”, continúa la subdirectora de Unesco.
¿Y cuál es la respuesta, rema la IA hacia sociedades más justas? “No. Por una combinación de las bases de datos a las que recurren los desarrolladores, los algoritmos usados o el entrenamiento que se hace de estas tecnologías vemos cómo, por lo general, perpetúan y reproducen las discriminaciones y sesgos que ya conocemos”.
Ramos considera que el hecho de que sea un limitado grupo de multinacionales globales las que estén desarrollando tecnologías de IA (más del 80% de las mismas vienen de Estados Unidos y China) y de que sobre todo estén diseñadas por hombres “apenas el 20% de los trabajadores del sector son mujeres) es el origen de que estén perpetuando desigualdades.
El papel de los estados
De ahí, “la importancia de que los países aseguren que estos desarrollos tecnológicos respeten las normas de del Estado de derecho”, y ahí es donde viene la misión de los países”.
Sobre cómo deben proceder los estados, Ramos explica que “los Gobiernos no pueden ir a cada desarrollador para controlar lo que hacen, eso es imposible, pero sí pueden regular la eliminación de sesgos en los algoritmos, pueden capacitar a sus funcionarios para supervisar mejor estas tecnologías y pueden asegurar que sean éticas con cantidad de instrumentos, como las compras gubernamentales”.
Ramos remarca que las compras gubernamentales suelen ser el 12% del PIB de un país, por eso “desde Unesco vemos fundamental que los países filtren y solo puedan beneficiarse de estas compras los desarrollos tecnológicos que no discriminen a las mujeres, ni a los pobres, ni la información científica sobre el estado del medio ambiente”.
Evaluación previa
Considera que las tecnologías basadas en IA necesitan ser evaluadas con una perspectiva ética antes de que lleguen al mercado por alguien que no esté vinculado al equipo desarrollador.
“Hablo de ojos nuevos que puedan cuestionar incluso las hipótesis que se utilizaron para construir los algoritmos, si los datos resultantes de la selección que hacen esos algoritmos respetan, en primer lugar la privacidad, y si son verdaderamente representativos de población”, apunta.
Para “gobernar la ética de las tecnologías de IA hay que saber cómo funcionan”, y cuando haya un problema “contar con una especie de caja negra de la que se sepa con qué datos se ha entrenado la herramienta y con qué algoritmos”.
La subdirectora general de Ciencias Humanas y Sociales de Unesco apunta a que el Marco Global de Ética desarrollado en 2021 contiene todos los elementos qué deben tener las herramientas de IA en materia de desarrollo transparente, privacidad, promoción y defensa de los derechos y la dignidad humana, la inclusión, la igualdad o el desarrollo sostenible.
El marco de Unesco posee “mecanismos de seguimiento y rendición de cuentas pasa saber de dónde parten los países en cuanto a este control ético a nivel nacional, una especie de diagnóstico, y qué están haciendo para mejorar”, y en ese sentido “el nuevo observatorio es fundamental, porque ahí vamos haber quien está pendiente de estas tecnologías y quien no”.
El observatorio que se lanza hoy contendrá todos esos diagnósticos y planes de trabajo.
Fuente: Gestión